GNOSIS
Rivista italiana
diintelligence
Agenzia Informazioni
e Sicurezza Interna
» ABBONAMENTI

» CONTATTI

» DIREZIONE

» AISI





» INDICE AUTORI

Italiano Tutte le lingue Cerca i titoli o i testi con
Per Aspera Ad Veritatem n.28
Internet e l'undici settembre. Un caso di studio
Gino RONCAGLIA
ed. Laterza, Bari, 2003



Intervista all’Autore (*)
D. - Quale appendice al manuale Internet 2004, edito per i tipi della Laterza e di cui è coautore, Lei ha pubblicato un interessante caso di studio dedicato ad Internet e l’undici settembre. Nella breve introduzione, lo rammentiamo a beneficio dei nostri Lettori, si sofferma sulle ragioni che hanno determinato la necessità di un tale approfondimento. Tra queste, indica la circostanza che l’undici settembre 2001 ha rappresentato per Internet una data di importanza capitale, modificando la percezione degli utenti circa le potenzialità della Rete come strumento di comunicazione di massa. La Sua ricerca, aggiunge nella richiamata introduzione, è risultata anche utile per capire le funzionalità comunicative e il ruolo sociale assunto dalla Rete.
In che senso, secondo i dati che emergono dal Suo lavoro, l’undici settembre può essere considerato un turning point per la Rete e come va evolvendo il cambiamento sotto il profilo comunicativo e sociale?

R. - Naturalmente l’11 settembre non ha cambiato da un giorno all’altro né la struttura né le funzioni della rete. Ma credo si tratti effettivamente di una data di svolta – se non altro dal punto di vista simbolico – soprattutto per quanto riguarda la percezione da parte degli utenti delle caratteristiche e delle potenzialità comunicative del Web.
Credo che i cambiamenti riguardino fondamentalmente due dimensioni: una tecnica, connessa alla natura e alla tipologia degli strumenti utilizzati per immettere e gestire collaborativamente informazione in rete, e una comunicativa e in parte psicologica, connessa alla diversa percezione del tipo di contenuti che la rete è in grado di offrire nel campo dell’informazione giornalistica e di attualità.
Cominciamo dall’aspetto ‘tecnico’. Prima dell’11 settembre vedevamo il Web come composto innanzitutto da siti che corrispondevano direttamente a una voce, a una responsabilità autoriale precisa (raramente di singoli, più spesso di istituzioni, di aziende, di testate giornalistiche, di organizzazioni...). Il Web era, ed è sempre stato, una rete di voci diverse, ma queste voci corrispondevano in qualche misura a ‘territori’ distinti. Volendo fare un paragone, potremmo dire che i diversi siti Web corrispondevano in qualche misura a ‘stati nazionali’ separati. Esistevano naturalmente i forum, o i siti di ‘Web communities’, ma solo in casi molto particolari essi riuscivano a fornire qualcosa di più di una semplice raccolta di voci diverse ed eterogenee, a trasformarsi davvero in strumenti di elaborazione e di lavoro comune.
È proprio attorno al 2001, tuttavia, che in rete comincia a crescere l’attenzione attorno a due nuove tipologie di strumenti. In primo luogo i sistemi ‘economici’ per la gestione dei contenuti (Personal Content Management Systems, o Personal CMS), che permettono ai singoli utenti – anche a utenti con capacità tecniche relativamente limitate – o a piccole organizzazioni di realizzare ed aggiornare siti fortemente strutturati, concentrandosi sui contenuti più che sulla loro organizzazione grafica all’interno delle pagine del sito (compito, quest’ultimo, al quale provvede direttamente il programma). In questo modo operazioni che prima erano possibili solo ai grandi siti giornalistici, in grado di acquistare i costosi programmi necessari ad automatizzare le procedure di immissione delle informazioni e di impaginazione del sito, diventano accessibili a chiunque sia dotato dell’accesso a un server e di un minimo di buona volontà. Si apre così la strada alla realizzazione di mini-siti giornalistici (personali o collaborativi), tecnicamente e graficamente validi, in grado di garantire l’archiviazione e l’indicizzazione automatica delle informazioni immesse.
La seconda tipologia di strumenti che comincia a diffondersi – in verità in forma ancora assai embrionale - nel 2001 è rappresentata dai sistemi di filtraggio collaborativo (collaborative filtering) e di aggregazione delle informazioni. Si tratta di una classe assai ampia di strumenti e meccanismi, che permettono di ‘far emergere’, da una massa ampia e indifferenziata di informazioni, quelle che una comunità di utenti considera più utili o interessanti, sia in generale, sia in relazione a un punto di vista o un interesse specifico, raccogliendole e presentandole in maniera organizzata. Per comprendere il concetto di collaborative filtering si può fare un esempio banale: quello della hit parade dei dischi più venduti. Una classifica del genere fornisce un filtraggio (i dieci dischi più venduti ‘emergono’ dall’insieme ampio e indifferenziato dei dischi in commercio) collaborativo (si tratta del risultato di una serie di singole scelte di acquisto da parte di una comunità di consumatori), che può essere a sua volta utilizzato da altri utenti per indirizzare le proprie scelte. Naturalmente il tipo di ‘filtraggio’ realizzato da una hit parade è assai semplice e poco raffinato (potremmo migliorarlo, ad esempio, attraverso una suddivisione dei dischi per generi...). I sistemi informatizzati di collaborative filtering permettono operazioni assai più complesse: ad esempio aggregazioni degli utenti per tipologie di comportamenti, facendo riferimento a comportamenti diversi (non solo l’acquisto – o la consultazione di una pagina o di una notizia – ma anche i tempi di permanenza, la valutazione dei contenuti, ecc.). In sostanza, l’uso del collaborative filtering su Web può aiutare a ‘far emergere’ le pagine, le notizie o i commenti considerati più rilevanti in base a determinate tipologie di utenza o di interessi. Gli strumenti di aggregazione permettono di ‘aggregare’, raccogliere e presentare in forma organizzata e unitaria le informazioni così selezionate.
È chiaro che l’uso di strumenti di questo tipo modifica in parte l’immagine tradizionale del Web, e in particolare del Web legato alle informazioni giornalistiche e di attualità: ai grossi ‘siti-nazione’ – che nel settore che stiamo considerando corrispondono ai siti delle grandi testate giornalistiche, delle agenzie d’informazione, e di varie tipologie di enti e organizzazioni in grado di fornire al pubblico informazioni aggiornate relative a settori o ambiti territoriali specifici – si aggiunge un insieme di siti personali o collaborativi assai più vasto ed eterogeneo, in grado tuttavia – grazie all’uso di semplici CMS – di raccogliere e di fornire informazioni e commenti in maniera organizzata, utilizzando strumenti tecnici ragionevolmente omogenei.
Questa moltiplicazione delle voci rischia evidentemente di trasformarsi in pura confusione: il numero delle fonti informative è eccessivo, la loro attendibilità è spesso difficile o impossibile da valutare, il loro interesse è assai soggettivo e dipende comunque dalla particolare ottica dei singoli utenti. Fortunatamente, però, ci vengono in aiuto – anche se in forma inizialmente assai poco raffinata – gli strumenti di collaborative filtering: possiamo attribuire punteggi di rilevanza alle singole notizie o a interi siti, basandoci sulla loro ‘popolarità’: sul numero di link esterni verso il sito o la notizia, sul numero di commenti, sul numero di letture, su meccanismi di ‘voto’ (rating) da parte degli utenti o realizzati in base a criteri automatici. E possiamo organizzare meccanismi di aggregazione che permettano di raccogliere e di seguire con maggiore attenzione le ‘voci’ di rete (singole persone, singole organizzazioni, siti collaborativi...) che si sono mostrate in passato più attendibili o interessanti.
Gli eventi drammatici dell’11 settembre hanno rappresentato la prima occasione in cui strumenti come i Personal CMS e alcuni rudimentali meccanismi di filtraggio collaborativo (basati inizialmente soprattutto su forme di ‘tam tam’ di rete) sono stati messi alla prova da una situazione di effettiva ‘emergenza informativa’. Un’emergenza aggravata dall’iniziale indisponibilità dei siti giornalistici tradizionali, bloccati dal sovraccarico di richieste. Quel che è successo l’11 settembre è che una rete di risorse informative in qualche misura ‘alternative’ (non tanto nel senso di un diverso indirizzo politico o interpretativo, quanto nella tipologia dei siti e degli strumenti utilizzati) ha affiancato quelle tradizionali, imponendosi all’attenzione e a sua volta indirizzando e orientando gli utenti verso particolari notizie o commenti.
Questo ha favorito il secondo dei due cambiamenti ai quali accennavo all’inizio, un cambiamento nella percezione delle caratteristiche comunicative del Web come strumento di informazione giornalistica e di attualità. Al posto della dipendenza da singoli siti informativi si sono sviluppati comportamenti di ‘navigazione orientata’ all’interno di un ventaglio di fonti assai più ampio, partendo da siti di raccordo, filtraggio e segnalazione delle notizie. Per fornire qualche esempio di questa tipologia di siti – in verità piuttosto complessa ed eterogenea – possiamo ricordare l’ormai anziano Drudge Report (http://www.drudgereport.com), il weblog collaborativo Metafilter (http://www.metafilter.com), o il prestigioso Best of the Web Today del Wall Street Journal (http://www.opinionjournal.com/best/). L’utente comincia dunque a guardare al Web come a una fonte informativa primaria dalle caratteristiche proprie e specifiche, con la capacità certo di fornire le breaking news dell’ultimo minuto, ma anche con quella – non meno importante – di permettere l’accesso a informazioni e commenti selezionati in base ai propri specifici orientamenti e interessi, all’interno di un ventaglio assai ampio di fonti, non sempre o necessariamente tradizionali.

D. - In effetti, è ben chiaro come sulla Rete il momento dell’informazione e della comunicazione tra utenti convivano. Ciò differenzia significativamente Internet rispetto ad altri mezzi di informazione e comunicazione verticali. La capillarità degli accessi, d’altro canto, ha da tempo dato luogo ad ampie discussioni, cui non è possibile per motivi di spazio soffermarsi, circa la dialettica libertà/sicurezza, con ciò che ne deriva in termini di controllo legislativo statuale, sia nei paesi democratici che in quei sistemi totalitari dove l’information technology svolge un ruolo decisivo nei processi di sviluppo. Una delle quattro sezioni in cui si articola il Suo lavoro è dedicata al funzionamento delle infrastrutture e dei servizi di rete nella situazione di emergenza determinatasi l’undici settembre.
Vuole ricordare ai nostri lettori i dati più significativi emersi, in relazione a ciò, nel suo studio, con particolare riferimento alla corretta collocazione e definizione del sovraccarico di rete perché non lo si confonda con un “mero” blocco della Rete?

R. - L’11 settembre, nelle prime ore successive all’emergenza, per molti utenti l’esperienza è stata quella di una sorta di ‘blocco da sovraccarico’ della rete: un numero sterminato di persone ha cercato di collegarsi contemporaneamente ai principali siti informativi, rendendoli di fatto quasi irraggiungibili: già un’ora dopo gli attentati, e per le cinque o sei ore successive, i siti della CNN, del New York Times, ma anche – ad esempio – quelli di Repubblica in Italia, di Le Monde in Francia, e così via, si sono rivelati incapaci di fronteggiare l’enorme numero di richieste. Alcuni analisti hanno interpretato questa situazione come un vero e proprio collasso generalizzato di Internet nella situazione di emergenza. Tuttavia in altri casi, addirittura nel cuore dell’area colpita, lungi dall’essere inutilizzabile, Internet si rivela l’unico strumento di contatto con l’esterno in una situazione in cui sono invece le reti di telefonia fissa e mobile a non funzionare. In questi casi, però, gli strumenti di rete utilizzati non hanno a che fare con la navigazione su Web verso i grandi siti giornalistici: a funzionare sono piuttosto la posta elettronica e i sistemi di instant messaging.
Per capire le motivazioni di queste diverse situazioni – il blocco completo dei grandi siti giornalistici e informativi, e d’altro canto il funzionamento della posta elettronica e dei sistemi di instant messaging, ma anche della navigazione verso siti meno noti e congestionati – bisogna considerare che Internet non è una struttura rigida e centralizzata. Nasce dall’intreccio di reti e sottoreti dalle caratteristiche fisiche anche molto diverse, percorse da canali di comunicazione interconnessi ma anche ridondanti e funzionalmente indipendenti. Il blocco di alcune linee, il sovraffollamento di alcuni fra i siti più noti, non può paralizzare la rete nel suo complesso. E così, nelle ore immediatamente successive agli attentati, “mentre i principali siti informativi risultavano congestionati, il traffico si indirizzava verso siti alternativi, come Slashdot.com, che offrivano riassunti ottenuti attraverso il copia e incolla di informazioni ricavate dai siti commerciali. Si è trattato di qualcosa di simile a una raccolta collaborativa di informazioni, nella quale molti raccoglievano e pubblicavano voci e notizie: come risultato, questi siti offrivano a ogni utente l’accesso a più fonti informative di quante egli avrebbe potuto reperire da solo.” (1) Si assiste dunque alla creazione collaborativa e spontanea di punti di raccolta alternativi, di ‘mirror’, di reti di rimandi tutti funzionali allo sforzo comune di sapere cosa stia succedendo e di cominciare a rifletterci sopra.
Nessuna paralisi della rete, dunque, ma risposte diverse da parte di servizi, sottoreti, siti diversi. In generale, il sovraccarico di traffico ha paralizzato i siti ‘centrali’ di riferimento (con un effetto molto simile a quello degli attacchi informatici di tipo ‘denial of service’: i server sono sovraccarichi di richieste e non riescono ad esaudirle) e ha fortemente penalizzato la comunicazione basata su contenuti multimediali complessi, più ‘pesanti’ in termini di byte. Mentre funzionalità come l’e-mail e i sistemi di instant messaging hanno retto bene, dimostrandosi meno vulnerabili della stessa rete telefonica. E lo stesso Web ha dimostrato una immediata capacità di reazione, affidata alla ricerca, raccolta e duplicazione spontanea dell’informazione, disseminata su una ragnatela di siti spesso interconnessi, ‘poveri’ dal punto di vista multimediale, non gravati da grafica complessa, banner pubblicitari, animazioni.
Anche i siti commerciali, del resto, hanno adottato immediate contromisure. Nel giro di poche ore, ad esempio, il sito della CNN ha deciso di abbandonare la sua veste abituale – piuttosto ‘pesante’ – a favore prima di un articolo riassuntivo corredato di una foto, poi di una semplice raccolta di ‘strilli’, collegati ipertestualmente ad articoli essenziali e privi di orpelli grafici. Il peso della home page della CNN è così ridotto a meno di un decimo di quello abituale, con un deciso incremento nella capacità del server di soddisfare richieste.
Almeno alcune fra le lezioni da trarre da quanto accaduto in rete nella tragica giornata dell’11 settembre dovrebbero risultare abbastanza evidenti.
Innanzitutto, in una situazione di emergenza sono fondamentali i sistemi di comunicazione più rapidi, più decentrati e a minor richiesta di banda: a cominciare da e-mail e sistemi di instant messaging. Per evitare che questi sistemi siano penalizzati da sovraccarichi nella comunicazione via Web, è importante che siano gestiti da computer diversi rispetto a quelli nei quali sono installati server Web. In particolare, i mail server di strutture sensibili dovrebbero sempre risiedere su macchine indipendenti.
In secondo luogo, i principali siti informativi, ma anche i siti di riferimento nell’ambito della pubblica amministrazione, dovrebbero tutti disporre della possibilità di passare, con brevissimo preavviso, dall’impaginazione ‘normale’ a una impaginazione di emergenza. Una impaginazione spartana e priva di ogni orpello grafico, capace di risparmiare la maggior quantità possibile di banda e di rispondere quindi a un maggior numero di richieste da parte degli utenti.
In terzo luogo, se – come ci si poteva aspettare – risulta pienamente confermato il ruolo fondamentale della ridondanza dell’informazione come strumento per far fronte alle situazioni di crisi, assai meno ovvio era che questa ridondanza potesse essere almeno in parte ‘costruita’ collaborativamente nel momento del bisogno. L’11 settembre ci ha insegnato che questa costruzione collaborativa di ridondanza, associata alla realizzazione di una vera e propria rete di nodi informativi alternativi capaci di funzionare anche come filtri e concentratori di notizie, costituisce una risposta immediata e quasi naturale della rete a una situazione di improvvisa emergenza.
Naturalmente, le considerazioni che abbiamo svolto e le indicazioni che ne abbiamo tratto sono fortemente influenzate dalla natura specifica degli avvenimenti dell’11 settembre. In particolare, va tenuto conto che la reazione della rete a quei drammatici avvenimenti è stata condizionata da alcuni fattori specifici:
· forte localizzazione geografica dell’emergenza;
· fase più acuta della crisi limitata a un arco temporale abbastanza ristretto;
· disponibilità nell’area direttamente interessata di ottime infrastrutture di rete e di un largo bacino di utenti;
· danni assai limitati alle infrastrutture di rete;
· prevalenza di una funzione informativa generica rispetto alla vera e propria comunicazione di emergenza.
Occorre evidentemente chiedersi se, e come, la variazione di uno o più fra questi parametri possa modificare il quadro di riferimento: un esercizio non facile, ma rispetto al quale possono essere condotte analisi e simulazioni. Mi auguro che questo lavoro di analisi e preparazione venga svolto, non solo negli Stati Uniti.

D. In relazione alla reale consistenza del blocco in parola, l’utilizzo di siti alternativi, meno noti, avrebbe infatti garantito una raccolta collaborativa di informazioni, spesso prescindendo dalle connessioni tradizionali al momento fuori uso.
Anche dal Suo lavoro, tuttavia, emerge il dubbio circa l’attendibilità o la verifica delle fonti che un sistema del genere può generare, con il rischio, aggiungiamo noi, di un uso strumentale o manipolativo che può aggiungere confusione o disinformazione in una situazione di crisi.
Come valuta questo rischio e quale ruolo dovrebbero a Suo avviso avere le agenzie governative in tale contesto?

R. - Una reazione spontanea come quella che ho delineato comporta inevitabilmente problemi di attendibilità e verifica delle fonti, e può effettivamente rappresentare il terreno di coltura ideale per leggende di rete di ogni genere (che non sono certo mancate in occasione dell’11 settembre), o addirittura per consapevoli manipolazioni.
A mitigare almeno in parte questo problema è la constatazione che proprio la collaborazione spontanea nella raccolta e nello scambio di informazioni tende quasi automaticamente a divenire collaborazione anche nella verifica delle notizie inviate. Nel caso dell’11 settembre, in molti casi informazioni inesatte e voci incontrollate sono state così corrette dai messaggi di altri utenti, non di rado osservatori diretti degli eventi in corso.
Tuttavia, questo processo di ‘verifica collaborativa’ può essere lento, e una azione mirata di disinformazione via rete potrebbe vanificarlo. Occorre dunque a mio avviso prevedere che in una situazione di emergenza vi sia la partecipazione diretta allo scambio informativo su Web – nelle forme e nei modi propri del Web, e dunque in maniera anche decentrata, non solo attraverso pochi siti di riferimento ‘ufficiali’ – da parte delle principali agenzie governative interessate: non tanto con funzione di censura o di controllo, quanto per integrare l’offerta informativa fornendo notizie di provenienza affidabile e certificata.
L’11 settembre questa partecipazione ‘ufficiale’ è mancata, ed in effetti un’altra lezione importante riguarda proprio i siti più rilevanti da questo punto di vista. Il funzionamento dei principali siti governativi statunitensi nelle prime ore dell’emergenza è stato infatti tutt’altro che soddisfacente, non solo per problemi di disponibilità di banda: “Mentre un insieme di canali informativi lavorava senza sosta, un altro insieme chiave di canali ha smesso quasi completamente di funzionare. Lo sviluppo concitato degli avvenimenti a New York e Washington ha portato martedì a un’apparente paralisi della governance, almeno nel caso dei siti Web delle agenzie governative. L’evacuazione dello staff dagli edifici chiave ha di fatto lasciato non presidiati i canali informativi. Solo la U.S. Federal Emergency Management Agency (FEMA: http://www.fema.gov) è apparentemente rimasta operativa e con la capacità di reagire agli eventi, mentre per ore il sito della Casa Bianca ha continuato a mostrare un comunicato del giorno precedente, sulle preoccupazioni del presidente Bush per l’economia nazionale. Solo verso mezzogiorno è stata inserita una breve dichiarazione del Presidente, e una dichiarazione appena più lunga è stata aggiunta ancora più tardi, nel pomeriggio” (2) . Evidentemente, anche i più sensibili fra i siti centrali della pubblica amministrazione statunitense non prevedevano – o non sono stati capaci di attivare – procedure decentrate di gestione ed aggiornamento delle proprie pagine Web. Una realtà paradossale, considerando che la possibilità di ‘delocalizzazione’ fisica dei siti e delle loro strutture di gestione è uno dei principali e più noti vantaggi offerti dalla rete!

D. - In tema di nuovi sistemi comunicativi, riferisce nel Suo lavoro che proprio a partire dagli avvenimenti dell’undici settembre conosce un’esplosione il modello weblog.
Quali sono le caratteristiche di questo modello e cosa insegna la sua rapidissima evoluzione?

R. - Dal punto di vista tecnico, i weblog (o più semplicemente ‘blog’) non sono altro che casi particolari di applicazione degli strumenti di Personal CMS di cui abbiamo già parlato. In sostanza, sistemi semplificati di gestione dei contenuti vengono utilizzati – in genere da singoli utenti, talvolta da piccole comunità o organizzazioni – per realizzare una sorta di ‘diario in rete’, composto di messaggi (‘post’) organizzati cronologicamente, con i messaggi più recenti in testa. L’immissione di un nuovo messaggio all’interno di un weblog è assai semplice, e può avvenire direttamente attraverso il browser web o addirittura utilizzando strumenti come i messaggi SMS via telefonia mobile. Il Personal CMS che gestisce il weblog si preoccupa di impaginare i messaggi, gestisce automaticamente gli archivi dei messaggi meno recenti, e così via.
L’11 settembre la diffusione dei weblog era ancora abbastanza limitata, ma nelle more dell’emergenza proprio questa tipologia di siti ha fornito – come abbiamo visto – la struttura portante per la creazione di una rete di canali di comunicazione alternativi rispetto ai grossi siti informativi tradizionali. E nei giorni e nei mesi successivi la rete dei weblog ha costituito uno strumento importante di discussione (e in qualche misura anche di auto-analisi) collettiva. Alcuni weblog – e non solo quelli opera di giornalisti professionisti – offrono opinioni ed analisi piuttosto attente e competenti, tanto da trasformarsi in qualche misura in strumenti di opinion making.
Negli ultimi tre anni il numero dei weblog è cresciuto enormemente, ed è ormai chiaro che in molte situazioni questi siti possono costituire un vero e proprio strumento di comunicazione politica e informativa: ne sono esempi il caso famoso del weblog di Salam Pax, un giovane ingegnere iracheno che da Baghdad ha descritto la situazione prima, durante e dopo la guerra e che proprio attraverso l’esperienza del proprio weblog si è trasformato in un apprezzato giornalista professionista, e forse in maniera ancor più eclatante il gran numero di weblog iraniani, che testimoniano una situazione giovanile nella quale l’uso di Internet come strumento di comunicazione e in taluni casi anche di sfida al potere costituito appare assai diffuso.
Un aspetto particolarmente interessante del mondo weblog (al quale ci si riferisce spesso con il termine suggestivo di ‘blogosfera’) è la sperimentazione di sistemi di filtraggio collaborativo e di classificazione semantica dei messaggi. Per certi versi, la blogosfera rappresenta la prefigurazione di un modello di Web assai diverso da quello basato su siti relativamente indipendenti e a forte caratterizzazione autoriale del quale abbiamo parlato all’inizio. Anche se i singoli weblog conservano una forte caratterizzazione autoriale (ed hanno anzi in genere un singolo autore), infatti, la loro fruizione avviene sempre più spesso attraverso meccanismi di filtraggio collaborativo, di segnalazione di singoli messaggi che sono magari ripresi (o ‘sindacati’) da altri weblog. Il singolo weblog diventa così uno strumento di produzione di contenuti informativi strutturati che acquistano una loro indipendenza e una sorta di vita autonoma: i messaggi di un weblog possono essere aggregati con messaggi di altri weblog in base a criteri semantici o a meccanismi di filtraggio, e possono essere letti e utilizzati anche al di fuori del contesto in cui sono stati prodotti (3) .

D. Un’altra sezione del Suo studio è dedicata alla minaccia terroristica, sia per quanto riguarda l’utilizzo della Rete per comunicazioni coperte tra terroristi, di cui molto si è parlato e forse anche fantasticato in passato, sia per una valutazione del nuovo cyberterrorismo, dove la Rete diventa non solo strumento ma anche luogo deputato allo svolgimento di attività criminali di tale tipologia.
In effetti, molti osservatori hanno verificato una significativa scansione tra descrizione della minaccia cyberterroristica, portata ad esempio contro le infrastrutture critiche di un Paese, e fatti realmente accaduti e verificati, che non sembrano finora di rilevante portata, circoscrivibili nella gran parte dei casi ad attacchi denial of service contro siti “nemici”, altre volte oggetto di intrusioni per manipolarne i contenuti a scopo propagandistico con attività di defacing.
Per ciò che compete allo studioso, qual è la valutazione effettiva della minaccia cyberterroristica nella sua attualità ovvero nella proiezione futura?

R. Francamente credo che – almeno per quanto riguarda ciò che è prevedibile nel breve e medio periodo – la minaccia di azioni di cyberterrorismo capaci di danneggiare in maniera seria e generalizzata le funzionalità comunicative di Internet – e in particolare quelle strategicamente più delicate – sia abbastanza limitata. Occorre sempre ricordare, infatti, che la struttura decentrata e ridondante della rete ha un’enorme capacità di assorbire e vanificare singoli attacchi. In un certo senso, Internet ha nei propri geni la capacità di resistere ad azioni di questo tipo. Col crescere della sua complessità, l’immagine dell’hacker isolato o del gruppo supersegreto di cyberterroristi capaci da soli di mettere in ginocchio una nazione tende a diventare sempre più una finzione letteraria o cinematografica. Il pericolo maggiore, in questo settore, resta a mio avviso quello di attacchi dei tipo denial of service verso singoli siti o sistemi informativi.
Non vi sono neanche prove che, come talvolta sostenuto, alcuni virus diffusi nel periodo successivo agli attentati (e comunque ben lontani dal rappresentare una minaccia alla rete nel suo insieme) fossero effettivamente legati a episodi di cyberterrorismo. Questo non vuol dire, naturalmente, che gli attacchi a singoli siti e a singole strutture di rete non siano avvenuti: più che di vere e proprie ‘cyberwar’ di larga scala, si è trattato però di cyberguerre locali e semi-private. Nelle parole del National Infrastructure Protection Center, l’agenzia governativa statunitense nata in primo luogo proprio per la protezione delle infrastrutture di rete, “Dopo gli attacchi terroristici dell’11 settembre 2001 la speculazione sulla possibilità di cyber-attacchi ha portato ad ipotizzare azioni di varia portata, da scaramucce di basso livello a una vera e propria ‘cyberwar’. Di fatto, ciò che si è visto finora può essere collocato nella gamma bassa dello spettro. Si è assistito ad azioni sia a favore sia contro gli Stati Uniti. Tuttavia, gli effetti di queste azioni non sono stati particolarmente gravi. Nel valutare questi avvenimenti, le analisi di tendenza indicano che la minaccia di attacchi informatici remoti contro le reti e i siti statunitensi resta di basso livello. Comunque, questa minaccia è maggiore di quanto non fosse prima dell’11 settembre”. (4) Fra gli attacchi ‘di basso livello’ va sicuramente menzionato il fenomeno del cosiddetto ‘Patriotic Hacking’: ovvero gli attacchi da parte di membri della comunità hacker statunitense, nell’immediato post-11 settembre e nelle more degli interventi in Afghanistan e in Iraq, a siti percepiti come ‘vicini al nemico’. Anche sul fronte opposto hanno naturalmente operato gruppi di hacker, come Gforce Pakistan che ha rivendicato l’hackeraggio di numerosi siti indiani e statunitensi.
Una considerazione più seria merita semmai il rischio di attentati ad alcune strutture fisiche della rete: mettere fuori uso in maniera mirata alcuni server e alcune backbone non potrebbe certo paralizzare completamente il funzionamento di Internet, ma potrebbe creare comunque un bel po’ di guai, soprattutto se ad essere colpiti fossero centri di elaborazione dati e infrastrutture di rete legati allo scambio informativo del settore economico-finanziario o della pubblica amministrazione. La consapevolezza di questi rischi ha spinto negli ultimi anni a creare vere e proprie politiche di ridondanza e gestione distribuita dei dati più sensibili, ma ci si può chiedere se queste politiche siano abbastanza diffuse, standardizzate e consapevoli da fornire un’effettiva garanzia di sicurezza. Un attento monitoraggio sulla sicurezza fisica dei principali centri di calcolo e di elaborazione, in particolare per quanto riguarda il sistema finanziario, bancario e della pubblica amministrazione, e sulla efficacia delle relative politiche di gestione dei dati di backup (che dovrebbero ovviamente essere memorizzati su supporti conservati in sedi diverse da quelle che ospitano i dati originali) – è sicuramente indispensabile.


(*) Intervista realizzata il 17 marzo 2004.
(1) Da un articolo del Washington Post, originariamente in rete all’indirizzo http://www.washtech.com/news/software/12454-1.html, ora non più disponibile.
(2) http://www.firstmonday.org/issues/issue6_12/blakemore/.
(3) Chi fosse interessato ad approfondire questi temi può leggere il mio articolo Blogosfera e feed RSS:una palestra per il semantic web?, pubblicato in rete dalla rivista Networks all’indirizzo http://lgxserve.cise-ca.uniba.it/lei/ai/networks/03-2/roncaglia.pdf.
(4) Il passo è tratto dal documento Cyber Protests Related to the War on Terrorism: The Current Threat, del National Infrastructure Protection Center:http://www.nipc.gov/publications/nipcpub/cyberprotests1101.pdf.

© AGENZIA INFORMAZIONI E SICUREZZA INTERNA